12 research outputs found

    Monitoring of security properties using BeepBeep

    Get PDF
    Runtime enforcement is an effective method to ensure the compliance of program with user-defined security policies. In this paper we show how the stream event processor tool BeepBeep can be used to monitor the security properties of Java programs. The proposed approach relies on AspectJ to generate a trace capturing the program’s runtime behavior. This trace is then processed by BeepBeep, a complex event processing tool that allows complex data-driven policies to be stated and verified with ease. Depending on the result returned by BeepBeep, AspectJ can then be used to halt the execution or take other corrective action. The proposed method offers multiple advantages, notable flexibility in devising and stating expressive user-defined security policies

    On the Production of Semantic and Textured 3D Meshes of Large scale Urban Environments from Mobile Mapping Images and LiDAR scans

    Get PDF
    International audienceDans cet article nous présentons un cadre entièrement au-tomatique pour la reconstruction d'un maillage, sa textu-ration et sa sémantisation à large échelle à partir de scans LiDAR et d'images orientées de scènes urbaines collectés par une plateforme de cartographie mobile terrestre. Tout d'abord, les points et les images georéferencés sont dé-coupés temporellement pour assurer une cohèrence entre la geométrie (les points) et la photométrie (les images). Ensuite, une reconstruction de surface 3D simple et ra-pide basée sur la topologie d'acquisition du capteur est effectuée sur chaque segment après un rééchantillonnage du nuage de points obtenu à partir des balayages LiDAR. L'algorithme de [31] est par la suite adapté pour texturer la surface reconstruite avec les images acquises simultané-ment assurant une texture de haute qualité et un ajustement photométrique global. Enfin, en se basant sur le schéma de texturation, une sémantisation par texel est appliquée sur le modèle final. Mots Clef scène urbaine, cartographie mobile, LiDAR, reconstruction de surface, texturation, sémantisation, apprentissage pro-fond. Abstract In this paper we present a fully automatic framework for the reconstruction of a 3D mesh, its texture mapping and its semantization using oriented images and LiDAR scans acquired in a large urban area by a terrestrial Mobile Mapping System (MMS). First, the acquired points and images are sliced into temporal chunks ensuring a reasonable size and time consistency between geometry (points) and pho-tometry (images). Then, a simple and fast 3D surface reconstruction relying on the sensor space topology is performed on each chunk after an isotropic sampling of the point cloud obtained from the raw LiDAR scans. The method of [31] is subsequently adapted to texture the reconstructed surface with the images acquired simultaneously, ensuring a high quality texture and global color adjustment. Finally, based on the texturing scheme a per-texel semantization is conducted on the final model

    Cartographie sémantique hybride de scènes urbaines à partir de données image et Lidar

    No full text
    With the democratization of collaborative navigation applications and autonomous robots, mobile mapping has received an increasing attention in recent years, both in academic and industrial circles. The digitization of the environment not only provides detailed and extensive knowledge enabling end-users to anticipate and plan their journeys, but also guarantees the availability of reliable up-to-date information in critical scenarios (e.g., when sensors of an autonomous car fail to perceive the surroundings). Mobile mapping raises, however, many challenges in terms of robustness, accuracy and scalability. Processing mapping data requires methods that are able to handle massive data with centimetric accuracy while coping with the acquisition specificities i.e., variability in levels of detail, occlusions, strong variations in lighting conditions, etc.In the context of the french ANR project pLaTINUM, this thesis focuses on the development of a global geolocalised map of an urban environment made of 3D representations based on geometric, photometric and semantic information. Firstly, a comparative investigation of the suitable geometric representation options yields to the reconstruction of a large scale, high definition map through a textured 3D mesh. This representation is the result of a multi-modal fusion of oriented images and geo-referenced LiDAR scans acquired by a terrestrial mobile mapping platform. Subsequently, we propose to infer high level semantics to the reconstructed frame by exploiting the complementarity between the two acquisition modalities (photometry and geometry). Throughout the rich literature regarding this subject, we have identified a need of an annotated multi-modal urban dataset comprising a large scale textured mesh. This has led us to produce our own dataset composed of 3D point clouds, 2D geolocalized panoramic and perspective images, depth and reflectance maps, and a 3D textured mesh with the corresponding ground truth annotations for each modality.Secondly, we assume that the global map is represented by means of 3D point cloud structured by an adjacency graph. We introduce a novel supervised over-segmentation approach. This method operates in two steps: (i) local descriptors of 3D points are computed via deep metric learning, (ii) the point cloud is partitioned into uniform clusters called superpoints. The descriptors are learned such that they present high contrast at the interface between objects, thereby encouraging the partition to follow their natural contours. Our experiments on indoor and outdoor scenes show the clear superiority of our approach over state-of-the-art point cloud partitioning methods. We further illustrate how our method can be combined with a superpoint-based classification algorithm to enhance the performance of semantic segmentation of 3D point clouds, also improving the state-of-the-art in this field.Finally, we extend this approach to textured meshes. Triangles, structured this time by the dual graph of the mesh, are partitioned into homogeneous groups called superfacets. Much like point clouds, local descriptors of the textured mesh are learned so that the boundaries of the objects exhibit high contrast. These descriptors are the result of merging descriptors learned from the convolution of the mesh edges on the one hand, and the texture descriptors extracted from the 2D image domain on the other. The experiments conducted on our own multi-modal dataset, show the superiority of our approach compared to state-of-the-art methods for the task of 3D mesh over-segmentationAvec la démocratisation des applications collaboratives d’assistance à la navigation et l'avènement de robots autonomes, la cartographie mobile suscite ces dernières années une attention croissante, tant dans les milieux académiques qu’industriels. La numérisation de l’environnement offre non seulement une connaissance fine et exhaustive permettant aux usagers d’anticiper et de planifier leurs déplacements, mais garantit aussi la disponibilité d’informations fiables notamment en cas d'éventuelle défaillance des capteurs visuels d’un véhicule autonome. S’agissant d’un enjeu crucial pour une navigation fiable, la cartographie mobile soulève en revanche de nombreux défis en matière de robustesse, de précision et de passage à l’échelle. Cette problématique fait appel à des méthodes qui requièrent une capacité de traitement de données massives avec une précision centimétrique tout en gérant les spécificités de l’acquisition (la variabilité du niveau de détails, des occultations et des fortes variations de luminosité).Cette thèse porte sur le développement d’un référentiel global géolocalisé de l’environnement urbain constitué de représentations 3D géométriques, photométriques et sémantiques. Dans un premier temps, une investigation approfondie de la représentation la plus adaptée à un tel référentiel, permet une reconstruction d’une carte haute définition à large échelle sous forme d’un maillage 3D texturé. Cette représentation est mise en place par fusion multimodale d’images orientées et de balayages LiDAR géo-référencés acquis depuis une plateforme de cartographie mobile terrestre. Par la suite, nous proposons d'intégrer l'aspect sémantique au référentiel 3D reconstruit en exploitant la complémentarité entre les modalités d'acquisition photométriques et géométriques. À travers la riche littérature sur le sujet, nous identifions l'absence d’un jeu de données urbain multimodal annoté incluant un maillage texturé à large échelle. Nous abordons ce verrou par la production d'un jeu de données composé de nuages de point 3D, d’images 2D perspectives et panoramiques, de cartes de profondeur et de reflectance ainsi qu’un maillage texturé avec les annotations correspondantes à chaque modalité.Dans un second temps, nous considérons le référentiel comme un nuage de points structuré par un graphe d’adjacence. Nous introduisons une nouvelle approche de sur-segmentation par apprentissage supervisé. Cette méthode opère en deux temps: calcul de descripteurs locaux des points 3D par apprentissage profond de métrique, puis partition du nuage de points en zones uniformes, appelées superpoints. Les descripteurs sont appris de telle sorte qu'ils présentent de forts contrastes à l'interface entre objets, incitant la partition résultante à suivre leurs contours naturels. Nos expériences sur des scènes intérieures et extérieures montrent la nette supériorité de notre approche sur les méthodes de partition de nuage de points de l'état de l'art, qui ne reposaient pas jusqu'à là sur l’apprentissage machine. Nous montrons également que notre méthode peut être combinée à un algorithme de classification de superpoints pour obtenir d'excellents résultats en terme de segmentation sémantique, améliorant aussi l'état de l'art sur ce sujet.Enfin, nous étendons cette approche aux maillages texturés. Les triangles, structurés cette fois-ci par le graphe d'adjacence du maillage, sont partitionnés en groupes homogènes appelés superfacettes. À l’instar des nuages de points, des descripteurs locaux du maillage texturé sont appris de façon à ce que les frontières d'objets sémantiquement distincts présentent un contraste élevé. Ces descripteurs sont le résultat d’une fusion des descripteurs appris sur le maillage par convolution des arêtes d’une part, et des descripteurs de texture d’autre part. Les expériences réalisées sur notre jeu de données illustrent la supériorité de notre approche par rapport aux méthodes de l'état de l'art de sur-segmentation de maillag

    Surveillance des propriétés de sécurité avec BeepBeep

    Get PDF
    La programmation sécurisée consiste à prendre en compte la sécurité à toutes les étapes du développement d’un logiciel informatique ; cela permet d’éviter au maximum les failles et bogues qu’un attaquant peut exploiter afin de porter atteinte au système sur lequel ce logiciel s’exécute (Viega et McGraw2001). Dans ce mémoire, nous montrons comment l’outil de « runtime monitoring » (surveillance au moment de l’exécution) et traitement de flux d’événements BeepBeep, peut être utilisé pour développer un système flexible et extensible qui permet d’analyser le respect des propriétés de sécurité dans les programme Java. L’approche proposée repose sur AspectJ pour générer une trace qui capture le comportement d’un programme pendant qu’il s’exécute. Cette trace est ensuite traitée par BeepBeep, ce dernier permet d’énoncer et de vérifier des spécifications de différents niveaux de complexité. Selon le résultat renvoyé par BeepBeep, AspectJ est capable d’interrompre l’exécution du programme ou prendre une autre mesure. La méthode proposée offre de multiples avantages, notamment la possibilité de concevoir et d’énoncer des propriétés de sécurité définies par l’utilisateur

    Large scale textured mesh reconstruction from mobile mapping images and lidar scans

    Get PDF
    International audienceThe representation of 3D geometric and photometric information of the real world is one of the most challenging and extensively studied research topics in the photogrammetry and robotics communities. In this paper, we present a fully automatic framework for 3D high quality large scale urban texture mapping using oriented images and LiDAR scans acquired by a terrestrial Mobile Mapping System (MMS). First, the acquired points and images are sliced into temporal chunks ensuring a reasonable size and time consistency between geometry (points) and photometry (images). Then, a simple, fast and scalable 3D surface reconstruction relying on the sensor space topology is performed on each chunk after an isotropic sampling of the point cloud obtained from the raw LiDAR scans. Finally, the algorithm proposed in (Waechter et al., 2014) is adapted to texture the reconstructed surface with the images acquired simultaneously, ensuring a high quality texture with no seams and global color adjustment. We evaluate our full pipeline on a dataset of 17 km of acquisition in Rouen, France resulting in nearly 2 billion points and 40000 full HD images. We are able to reconstruct and texture the whole acquisition in less than 30 computing hours, the entire process being highly parallel as each chunk can be processed independently in a separate thread or computer

    Thermal and mechanical properties of bio-based plasticizers mixtures on poly (vinyl chloride)

    No full text
    Abstract The use of mixtures of nontoxic and biodegradable plasticizers coming from natural resources is a good way to replace conventional phthalates plasticizers. In this study, two secondary plasticizers of epoxidized sunflower oil (ESO) and epoxidized sunflower oil methyl ester (ESOME) were synthesized and have been used with two commercially available biobased plasticizers; isosorbide diesters (ISB) and acetyl tributyl citrate (ATBC) in order to produce flexible PVC. Different mixtures of these plasticizers have been introduced in PVC formulations. Thermal, mechanical and morphological properties have been studied by using discoloration, thermogravimetric analysis (TGA), differential scanning calorimetry (DSC), dynamic mechanical thermal analysis (DMTA), tensile - strain and scanning electron microscopy (SEM). Studies have shown that PVC plasticization and stabilization were improved by addition of plasticizers blends containing ISB, ATBC, ESO and ESOME. An increase in the content of ESO or ESOME improved thermal and mechanical properties, whereas ESOME/ATBC formulations exhibited the best properties

    Effect of Biobased Plasticizers on Thermal, Mechanical, and Permanence Properties of Poly(vinyl chloride)

    No full text
    International audiencePhthalates can be replaced by other harmless and environmentally friendly plasticizers, such as isosorbide diesters (ISB), and epoxidized sunflower oil (ESO), which has been proved an efficient stabilizer for poly (vinyl chloride) (PVC) in helping to prevent degradation during processing. Formulations based on PVC with different amounts of ISB, ESO, and di-(2-ethylhexyl) phthalate (DEHP) from 0 to 60 parts by weight per hundred parts of resin were realized. To make PVC flexible with partial amounts of the debated phthalates as plasticizers, we use a combination of DEHP, ISB, and ESO. Effects of these two biobased plasticizers, ISB and ESO, and their mixture with DEHP on thermal stability by measuring discoloration degrees and thermal gravimetric analysis, on mechanical properties such tensile strength, elongation at break, and hardness, were characterized. Plasticizer permanence properties of PVC compounds were studied. Studies showed that processibility and flexibility were improved by the addition of a plasticizer system (ISB, ESO, and DEHP). An increase in the content of ISB and/or ESO increased thermal and mechanical properties, whereas compositions with ternary compositions of ISB/ESO/DEHP (15/15/30) exhibited the best performance properties
    corecore